首页> 外文OA文献 >Visual Word2Vec (vis-w2v): Learning Visually Grounded Word Embeddings Using Abstract Scenes
【2h】

Visual Word2Vec (vis-w2v): Learning Visually Grounded Word Embeddings Using Abstract Scenes

机译:Visual Word2Vec(vis-w2v):学习视觉接地的Word嵌入   使用抽象场景

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

We propose a model to learn visually grounded word embeddings (vis-w2v) tocapture visual notions of semantic relatedness. While word embeddings trainedusing text have been extremely successful, they cannot uncover notions ofsemantic relatedness implicit in our visual world. For instance, although"eats" and "stares at" seem unrelated in text, they share semantics visually.When people are eating something, they also tend to stare at the food.Grounding diverse relations like "eats" and "stares at" into vision remainschallenging, despite recent progress in vision. We note that the visualgrounding of words depends on semantics, and not the literal pixels. We thususe abstract scenes created from clipart to provide the visual grounding. Wefind that the embeddings we learn capture fine-grained, visually groundednotions of semantic relatedness. We show improvements over text-only wordembeddings (word2vec) on three tasks: common-sense assertion classification,visual paraphrasing and text-based image retrieval. Our code and datasets areavailable online.
机译:我们提出了一个模型来学习视觉基础的单词嵌入(vis-w2v),以捕获语义相关性的视觉概念。尽管使用文本训练的词嵌入非常成功,但它们无法揭示我们视觉世界中隐含的语义相关性概念。例如,尽管“吃”和“盯着”在文本上似乎无关,但是它们在视觉上共享语义。当人们吃东西时,他们也倾向于盯着食物。尽管最近在视力方面取得了进步,但视力仍具有挑战性。我们注意到,单词的视觉基础取决于语义,而不是文字像素。因此,我们使用从剪贴画创建的抽象场景来提供视觉基础。我们发现,我们学习的嵌入捕获了语义相关性的细粒度,基于视觉的概念。我们在以下三个任务上显示了比纯文本词嵌入(word2vec)有所改进:常识断言分类,可视化措词和基于文本的图像检索。我们的代码和数据集可在线获得。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号